3月22日消息,英伟达在GTC Spring2023主题演讲中,针对不断增长的AI市场,推出了全新的双GPU产品H100NVL。H100NVL在顶部配备了3个NVLink连接器,使用两个相邻的PCIe显卡插槽。
英伟达表示在运行大型语言模型(LLM)时,常规显卡的显存无法驾驭庞大的数据流。因此本次推出的H100NVL最高可以提供188GB HBM3显存,单卡显存容量94GB。
H100NVL的功耗略高于H100PCIe,每个GPU为350-400瓦(可配置),增加了50W。
从报道中获悉,总性能实际上是H100SXM的两倍:FP64为134teraflops,TF32为1979teraflops,抖客网,FP8为7916teraflops,INT8为7916teraops。内存带宽也比H100PCIe高很多,每个GPU为3.9TB/s,总和为7.8TB/s(H100PCIe为2TB/s,H100SXM为3.35TB/s)。
原标题:【英伟达针对 AI 市场推出双 GPU 产品 H100 NVL,最高使用 188GB HBM3 显存】 内容摘要:3月22日消息,英伟达在GTC Spring2023主题演讲中,针对不断增长的AI市场,推出了全新的双GPU产品H100NVL。H100NVL在顶部配备了3个NVLink连接器,使用两个相邻的PCIe显卡插槽。 英伟达表示在运行大型 ... 文章网址:https://www.doukela.com/jc/211003.html; 免责声明:抖客网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。 |